iT邦幫忙

2024 iThome 鐵人賽

0
自我挑戰組

30天認識爬蟲系列 第 25

[Day25] 實作:抓取社群媒體資料

  • 分享至 

  • xImage
  •  

今天是第二十五天,我的目標是學會如何使用Twitter API抓取推文和用戶資料。

需要用到的工具:

  • Python 3
  • tweepy庫(用於與 Twitter API 互動)
  • Twitter開發者帳戶和 API 金鑰

1.申請Twitter開發者帳戶
訪問 Twitter Developer 頁面,創建帳戶並設置應用以獲取 API 金鑰和密鑰。
將獲得以下幾個金鑰:

  • API Key
  • API Secret Key
  • Access Token
  • Access Token Secret

2.安裝 tweepy庫,使用以下命令安裝 tweepy:

pip install tweepy

3.編寫抓取社交媒體資料的腳本:下面是一個簡單的 Python 腳本,用於抓取推文和用戶資料:

import tweepy

# 設定 API 金鑰
api_key = 'YOUR_API_KEY'
api_secret_key = 'YOUR_API_SECRET_KEY'
access_token = 'YOUR_ACCESS_TOKEN'
access_token_secret = 'YOUR_ACCESS_TOKEN_SECRET'

# 認證 Twitter API
auth = tweepy.OAuthHandler(api_key, api_secret_key)
auth.set_access_token(access_token, access_token_secret)
api = tweepy.API(auth)

# 定義抓取推文的函數
def fetch_tweets(username):
    try:
        # 獲取用戶的推文
        tweets = api.user_timeline(screen_name=username, count=5, tweet_mode='extended')
        for tweet in tweets:
            print(f"Tweeted by @{tweet.user.screen_name}: {tweet.full_text}\n")
    except tweepy.TweepError as e:
        print(f'Error: {e}')

# 主函數
if __name__ == '__main__':
    username = 'Twitter'  # 設定要抓取的用戶名
    fetch_tweets(username)

4.執行腳本:將上面的代碼保存在一個Python文件中(例如 twitter_scraper.py),並替換為你的API金鑰,然後在終端中運行:

python twitter_scraper.py

5.查看輸出:腳本將抓取指定用戶的最近5條推文並打印出來。


上一篇
[Day24] 抓取API數據
下一篇
[Day26] MySQL與MongoDB
系列文
30天認識爬蟲30
圖片
  直播研討會
圖片
{{ item.channelVendor }} {{ item.webinarstarted }} |
{{ formatDate(item.duration) }}
直播中

尚未有邦友留言

立即登入留言